OpenAI визуализира гласов генератор, признавайки изборните рискове
Стартъпът за изкуствен интелект OpenAI пусна прелиминарен обзор в петък на дигитален гласов генератор, който съгласно него може да създава естествено звучаща тирада въз основа на единична 15-секундна аудио проба.
Софтуерът се назовава Voice Engine. Това е най-новият артикул, който идва от стартъпа в Сан Франциско, който също стои зад известния чатбот ChatGPT и генератора на изображения DALL-E.
Компанията сподели в обява в блог, че е тествала Voice Engine в набор от вероятни приложения, в това число помощ при четене на деца, езиков превод и възобновяване на гласа на пациенти с рак.
Някои консуматори на обществени медии реагираха, като акцентираха вероятни злоупотреби, в това число евентуална машинация, подкрепена с неоторизирана гласова реплика, или дълбоки подправени известия.
Но OpenAI сподели, че задържа изключено към този момент при по-широко стартиране на софтуера заради опцията за корист, в това число по време на изборна година. Той сподели, че за първи път е създал продукта в края на 2022 година и го е употребявал зад кулисите в други артикули.
„ Ние възприемаме внимателен и осведомен метод към по-широко разпространяване заради капацитета за корист със синтетичен глас “, сподели компанията в неподписания пост.
„ Надяваме се да стартираме разговор по отношение на виновното внедряване на синтетични гласове и по какъв начин обществото може да се приспособява към тези нови благоприятни условия “, се споделя в него. „ Въз основа на тези диалози и резултатите от тези проби в дребен мащаб, ние ще вземем по-информирано решение дали и по какъв начин да внедрим тази технология в мащаб. “
Изборите през 2024 година към този момент станаха очевидци на първия си подправен глас, който се появи в Ню Хемпшир в автоматизирано позвъняване през януари, имитирайки президента Джо Байдън. По-късно чиновник на Демократическата партия сподели, че е поръчал подправения глас, употребявайки изкуствен интелект и помощта на махленски вълшебник от Ню Орлиънс.
След това позвъняване Федералната комисия по връзките гласоподава единомислещо за възбрана на непоискани AI robot calls.
OpenAI признава политическите опасности в своята обява в блога.
„ Ние осъзнаваме, че генерирането на тирада, която прилича гласовете на хората, крие съществени опасности, които са изключително значими в година на избори “, се споделя в него.
Компанията съобщи, че „ се ангажира с американски и интернационалните сътрудници от държавното управление, медиите, развлеченията, образованието, гражданското общество и отвън тях, с цел да подсигурява, че включваме тяхната противоположна връзка, до момента в който построяваме. “
Той сподели, че политиките му за потребление не разрешават представянето под непозната идентичност без единодушие или законно право и сподели, че необятното внедряване би трябвало да бъде съпроводено от „ опит за гласово засвидетелствуване “, с цел да се ревизира дали истинският представител умишлено е добавил гласа си към обслужване. Той също по този начин приканва за „ лист с неразрешени гласове “, с цел да се предотврати основаването на гласове, които са прекомерно сходни на видни фигури.
Но намирането на метод за разкриване и етикетиране на генерирано от AI наличие има се оказа мъчно за софтуерната промишленост. Предложените решения като „ воден знак “ се оказаха лесни за унищожаване или заобикаляне.
Джефри Милър, доцент по логика на психиката в Университета на Ню Мексико, отговори на OpenAI на платформата X, питайки какво ще направи по отношение на евентуалната корист от нарушители.
„ Когато милиони по-възрастни хора бъдат излъгани за милиарди долари от тези дълбоки подправени гласове, ще бъде ли @OpenAI подготвен за последвалото цунами от правосъдни разногласия? “ попита той. Компанията не му отговори незабавно.
Дейвид Инграм